ollama是什么
开源框架
Ollama是一个开源框架,专为在本地机器上便捷部署和运行大型语言模型(LLM)而设计。
其主要特点和功能包括简化部署、轻量级与可扩展性、提供简洁的API支持、
包含预构建模型库、支持从多种平台导入模型、跨平台支持以及命令行工具和环境变量配置。
Ollama通过极简的命令行操作简化了模型管理流程,
支持离线运行、多模型并行、私有化部署等场景。
它还提供了一系列预先训练好的大型语言模型,
用户可以直接选用这些模型应用于自己的应用程序,
无需从头训练或自行寻找模型源。
此外,Ollama支持多种大型语言模型,如Llama 3、Mistral、Gemma 2等,
并且提供了详细的文档和社区支持,
使得用户能够轻松地在本地环境中高效利用大型语言模型进行自然语言处理任务。
官方网站: https://ollama.com/
官方github: https://github.com/ollama/ollama
注意访问需要科学上网 ,请自行解决
也可尝试使用手机流量开热点链接,此方法不保证完全可行
安装
安装
1 | curl -fsSL https://ollama.com/install.sh | sh |
验证ollama 是否启动
1 | sudo systemctl status ollama |
1 | root@idx-jk-work-1745566999271:/home/ollama/bin# sudo systemctl status ollama |
也可通过命令查看ollama 运行的模型查看
1 | ollama list |
1 | root@idx-jk-work-1745566999271:/home/ollama/models# ollama list |
更换模型下载目录
更换原因
根目录分配的空间较小,而ollama 默认 下载模型目录在 /usr/share/ollama/.ollama/models下,所生的6G空间,下载不了较大模型。
而home目录又196G空间,空间较为充足,因此更换模型下载目录
1 | root@idx-jk-work-1745566999271:/home/frp/frp_0.62.0_linux_amd64# df -h |
关闭Ollama服务
在更改模型路径之前,需要先停止Ollama服务。
使用systemctl命令:
1 | sudo systemctl stop ollama |
1 | sudo systemctl disable ollama.service |
创建新的模型路径
创建新的模型存储目录:
首先,创建一个新的目录作为模型存储路径。创建/home/ollama/models目录:1
sudo mkdir -p /home/ollama/models
更改目录权限:
确保新目录的权限设置正确,允许Ollama访问和写入:1
sudo chmod -R 775 /home/ollama/models
1 | sudo chown -R root:root /home/ollama/models |
1 | sudo chown -R ollama:ollama /home/ollama/models |
修改Ollama服务配置文件
编辑服务配置文件:
使用文本编辑器编辑Ollama服务的配置文件:1
sudo vim /etc/systemd/system/ollama.service
修改配置内容:
在[Service]部分的Environment字段后,添加新的Environment字段,指定新的模型路径:1
Environment="OLLAMA_MODELS=/data/ollama/models"
完整的配置示例如下:
1 | [Unit] |
重载配置并重启Ollama服务
重载系统服务配置:
1
sudo systemctl daemon-reload
重启Ollama服务:
1
sudo systemctl restart ollama
注意此处可能重启较慢,稍等一会生效
- 查看服务状态:
sudo systemctl status ollama
验证更改
- 检查默认路径:
进入默认的模型路径/usr/share/ollama/.ollama/models,会发现models文件夹已经消失。
- 检查新路径:
在新的路径/home/ollama/models下,会看到生成了blobs和manifests文件夹,这表明模型路径已经成功更改。
模型下载
下载一个较大的模型
1 | ollama run deepseek-r1:14b |
查看 /home/ollama/models 路径下文件
1 | root@idx-jk-work-1745566999271:/home/ollama/models# du -sh ./* |
ollama模型的外部使用
ollama下载的模型可本机使用,也可默认本机通过端口调用,即,本地访问127.0.0.1:11434 进行调用模型
而不支持其他地址调用。
1 | root@idx-jk-work-1745566999271:/home/frp/frp_0.62.0_linux_amd64# ifconfig |
解决办法,修改ollama 配置文件
1 | sudo vim /etc/systemd/system/ollama.service |
修改配置内容:
在[Service]部分的Environment字段后,添加新的Environment字段,指定新的模型路径:
1 | Environment="OLLAMA_HOST=0.0.0.0:11434" |
完整配置如下
1 | [Unit] |
系统服务配置:
1 | sudo systemctl daemon-reload |
Ollama服务:
1
sudo systemctl restart ollama
注意此处可能重启较慢,稍等一会生效
验证
1 | root@idx-jk-work-1745566999271:/home/frp/frp_0.62.0_linux_amd64# telnet 127.17.0.1 11434 |
一辈子很短,努力的做好两件事就好;
第一件事是热爱生活,好好的去爱身边的人;
第二件事是努力学习,在工作中取得不一样的成绩,实现自己的价值,而不是仅仅为了赚钱;